최적 제어
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
최적 제어는 주어진 시스템의 특정 최적성 기준을 충족하는 제어 법칙을 찾는 문제이다. 이 문제는 비용 함수를 최소화하는 제어 변수의 경로를 찾는 것으로, 폰트랴긴의 최대 원리 또는 해밀턴-야코비-벨만 방정식을 사용하여 해결할 수 있다. 최적 제어는 1950년대에 최대 원리와 동적 계획법이 독립적으로 개발되면서 발전했으며, 선형 이차 제어(LQ)와 같은 특별한 경우의 해법이 존재한다. 수치적 해법으로는 간접법과 직접법이 있으며, 직접법은 계산상의 이점으로 인해 널리 사용된다. 현대 제어 이론은 디지털 방식으로 구현되는 경우가 많아 이산 시간 시스템과 해법을 주로 다루며, 일관된 근사 이론이 중요한 역할을 한다.
최대 원리와 동적 계획법은 1950년대 중반에 거의 동시에 독립적으로 개발되었다. 그 기초가 되는 생각은 매우 오래되었으며, 선사 시대부터 깊이 연관되어 있다.
최적 제어는 주어진 시스템에 대한 제어 법칙을 찾아 특정 최적성 기준을 달성하는 것을 목표로 한다. 최적 제어 문제는 상태 변수와 제어 변수의 함수인 비용 함수를 최소화하는 문제로, 이 비용 함수를 최소화하는 제어 변수의 경로는 일련의 미분 방정식으로 설명된다.[8]
2. 역사
최대 원리는 변분법에서 바이어슈트라스가 제시한 강한 극값에 관한 필요 조건을 일반화한 것이다. 이는 해밀토니안을 "유사" 해밀토니안(pseudo-Hamiltonian영어)으로 대체하여 얻어진다. 이 원리는 1935년에 콘스탄틴 카라테오도리에 의해 이미 엿보였으며, 1950년에는 매그너스 헤스테네스(Magnus Hestenes영어)에 의해 더욱 정교해졌다. 그러나 오늘날 우리가 아는 형태의 최대 원리는 레프 폰트랴긴의 통찰력이 기초가 된다. 그는 처음에는 최단 시간 문제에 대해 이 문제를 공식화했으며, 이후 블라디미르 볼티얀스키(Vladimir Boltyansky영어), 레바스 감크렐리제(Revaz Gamkrelidze영어) 및 레프 로조노엘 등에 의해 1955년부터 1959년까지 일반적인 경우로 확장되었다. 여기서 사용된 "바늘 모양 변분(needle variations영어)"에 의한 기법은 에드워드 J. 맥쉐인(Edward J. McShane영어)에 의해 1939년에 이미 사용되었지만, 볼티얀스키는 이에 더해 최대 원리가 최적성의 필요 조건에 불과하다는 것을 밝혔다. 그는 폰트랴긴과 공동 연구자들이 쓴 유명한 저서에서 최대 원리를 현재의 형식으로 제시했다[39][30][31]。 이 책에서는, 네 번째 저자인 예프 미시첸코에 의해 확률적 최적 제어 문제가 풀렸다.
이후의 연구를 통해 이론의 근본적인 수정을 거치지 않고도 접근 방식을 일반화할 수 있게 되었다. 그 중 하나는 프랜시스 클라크(Francis Clarke (mathematician)영어)가 시작한 "비평활 해석(nonsmooth analysis영어)"으로, 그가 도입한 일반화 기울기(generalized gradient영어) 또는 일반화 미분(Clarke generalized derivative영어)을 사용하여 미분 가능성 조건을 약화시키는 데 초점을 둔다[32][33][34]。 이를 통해, 폰트랴긴 등이 제시했던 구분적인 연속 함수보다 넓은 클래스(특히 르베그 가측 함수)를 제어 입력으로 사용할 수 있게 되었다. 그 외의 확장 방향으로는 시간 지연을 갖는 시스템[35]이나 무한 차원 시스템[36] 등이 있다.
볼티얀스키는 이산 시간 시스템에 대한 최대 원리의 "약한" 버전을 제시하고, 이를 위해 필요한 수학적 기법을 개발했다[37]。 오늘날 이 결과는 카루시-쿤-터커 조건을 사용하여 쉽게 나타낼 수 있지만, 적절한 볼록성 가정 하에서는 "진정한" 최대 원리인 충분 조건을 얻을 수 있다[38]。
2. 1. 초기 발전
최대 원리와 동적 계획법은 1950년대 중반에 거의 동시에 독립적으로 개발되었다. 그 기초가 되는 생각은 매우 오래되었으며, 선사 시대부터 깊이 연관되어 있다.
최대 원리는 변분법에서 바이어슈트라스의 강한 극값에 관한 필요 조건을 일반화한 것으로, 해밀토니안을 "유사" 해밀토니안(pseudo-Hamiltonian)으로 대체하여 얻어진다. 이 원리는 콘스탄틴 카라테오도리에 의해 1935년에 이미 엿보였으며, 1950년에는 Magnus Hestenes에 의해 더욱 정교해졌다. 그러나 오늘날 우리가 아는 형태의 최대 원리는 레프 폰트랴긴의 통찰력이 기초가 된다. 그는 처음에는 최단 시간 문제에 대해 이 문제를 공식화했으며, 그 후 Vladimir Boltyansky, Revaz Gamkrelidze 및 레프 로조노엘 등에 의해 1955년부터 1959년까지 일반적인 경우로 확장되었다. 여기서 사용된 "바늘 모양 변분(needle variations)"에 의한 기법은 Edward J. McShane에 의해 1939년에 이미 사용되었지만, 볼티얀스키는 이에 더해 최대 원리가 최적성의 필요 조건에 불과하다는 것을 나타냈다. 그는 최대 원리를, 폰트랴긴과 공동 연구자에 의해 쓰여진 그의 유명한 저서에서 현재의 형식으로 제시했다[39][30][31]。 이 책에서는, 네 번째 저자인 예프 미시첸코에 의해 확률적 최적 제어 문제가 풀렸다.
2. 2. 최대 원리와 동적 계획법
최대 원리와 동적 계획법은 1950년대 중반에 거의 동시에 독립적으로 개발되었다. 그 기초가 되는 생각은 매우 오래되었으며, 선사 시대부터 깊이 연관되어 있다.
최대 원리는 변분법에서 카를 바이어슈트라스가 제시한 강한 극값에 관한 필요 조건을 일반화한 것이다. 이는 해밀토니안을 "유사" 해밀토니안(pseudo-Hamiltonian)으로 대체하여 얻어진다. 이 원리는 1935년에 콘스탄틴 카라테오도리에 의해 이미 엿보였으며, 1950년에는 매그너스 헤스테네스에 의해 더욱 정교해졌다. 그러나 오늘날 우리가 아는 형태의 최대 원리는 레프 폰트랴긴의 통찰력이 기초가 된다. 그는 처음에는 최단 시간 문제에 대해 이 문제를 공식화했으며, 그 후 블라디미르 볼티얀스키, 레바스 감크렐리제 및 레프 로조노엘 등에 의해 1955년부터 1959년까지 일반적인 경우로 확장되었다.[39][30][31] 여기서 사용된 "바늘 모양 변분(needle variations)"에 의한 기법은 1939년 에드워드 J. 맥쉐인에 의해 이미 사용되었지만, 볼티얀스키는 이에 더해 최대 원리가 최적성의 필요 조건에 불과하다는 것을 밝혔다. 그는 폰트랴긴과 공동 연구자들이 쓴 유명한 저서에서 최대 원리를 현재의 형식으로 제시했다. 이 책에서는 네 번째 저자인 예프 미시첸코에 의해 확률적 최적 제어 문제가 풀렸다.
이후의 연구를 통해 이론의 근본적인 수정을 거치지 않고도 접근 방식을 일반화할 수 있게 되었다. 그 중 하나는 프랜시스 클라크가 시작한 "비평활 해석(nonsmooth analysis)"으로, 그가 도입한 일반화 기울기(generalized gradient) 또는 일반화 미분(generalized derivative)을 사용하여 미분 가능성 조건을 약화시키는 데 초점을 맞춘다.[32][33][34] 이를 통해, 폰트랴긴 등이 제시했던 구분적인 연속 함수보다 넓은 클래스(특히 르베그 가측 함수)를 제어 입력으로 사용할 수 있게 되었다. 그 외의 확장 방향으로는 시간 지연을 갖는 시스템[35]이나 무한 차원 시스템[36] 등이 있다.
볼티얀스키는 이산 시간 시스템에 대한 최대 원리의 "약한" 버전을 제시하고, 이를 위해 필요한 수학적 기법을 개발했다.[37] 오늘날 이 결과는 카루시-쿤-터커 조건을 사용하여 쉽게 나타낼 수 있지만, 적절한 볼록성 가정 하에서는 "진정한" 최대 원리인 충분 조건을 얻을 수 있다.[38]
2. 3. 현대적 발전
최대 원리와 동적 계획법은 1950년대 중반에 거의 동시에 독립적으로 개발되었다. 최대 원리는 변분법에서 카를 바이어슈트라스가 제시한 강한 극값에 관한 필요 조건을 일반화한 것으로, 해밀토니안을 "유사" 해밀토니안(pseudo-Hamiltonian)으로 대체하여 얻어진다. 이 원리는 1935년 콘스탄틴 카라테오도리에 의해 이미 엿보였으며, 1950년에는 Magnus Hestenes|매그너스 헤스테네스영어에 의해 더욱 정교해졌다. 그러나 오늘날 우리가 아는 형태의 최대 원리는 레프 폰트랴긴의 통찰력이 기초가 된다. 폰트랴긴은 처음에는 최단 시간 문제에 대해 이 문제를 공식화했으며, 이후 Vladimir Boltyansky|블라디미르 볼티얀스키영어, Revaz Gamkrelidze|레바스 감크렐리제영어, 레프 로조노엘 등에 의해 1955년부터 1959년까지 일반적인 경우로 확장되었다.[39][30][31]
이후의 연구를 통해 이론의 근본적인 수정을 가하지 않고도 접근 방식을 일반화할 수 있게 되었다. 그 중 하나는 Francis Clarke (mathematician)|프랜시스 클라크영어가 시작한 "비평활 해석(nonsmooth analysis)"으로, 그가 도입한 일반화 기울기(generalized gradient) 또는 Clarke generalized derivative|일반화 미분영어(generalized derivative)을 사용하여 미분 가능성 조건을 약화시키는 데 초점을 맞춘다.[32][33][34] 이를 통해 폰트랴긴 등이 제시한 결과로 얻어졌던 구분적인 연속 함수보다 넓은 클래스(특히 르베그 가측 함수)를 제어 입력으로 사용할 수 있게 되었다. 그 밖의 확장 방향으로는 시간 지연을 갖는 시스템[35]이나 무한 차원 시스템[36] 등이 있다.
볼티얀스키는 이산 시간 시스템에 대한 최대 원리의 "약한" 버전을 제시했다.[37] 오늘날 이 결과는 카루시-쿤-터커 조건을 사용하여 쉽게 나타낼 수 있지만, 적절한 볼록성을 가정하면 "진정한" 최대 원리인 충분 조건을 얻을 수 있다.[38]
3. 일반적인 정식화
최적 제어 문제는 일반적으로 다음과 같은 형태로 표현된다.
여기서 는 종단 비용(terminal cost), 는 단계 비용(stage cost)이다.
이와 같이 표현되는 최적 제어 문제는 특히 볼자 문제(Bolza problem)라고 불린다. 만약 목적 함수에서 종단 비용()이 0이면 라그랑주 문제(Lagrange problem), 단계 비용()이 0이면 마이어 문제(Mayer problem)라고 한다.
많은 최적 제어 문제에서 일반적인 해결 전략은 코스테이트(costate) 를 구하는 것이다. 코스테이트는 상태 변수를 확장하거나 축소하는 한계 가치를 나타낸다.
3. 1. 문제 정의
최적 제어는 주어진 시스템에 대한 제어 법칙을 찾아 특정 최적성 기준을 달성하는 문제를 다룬다. 제어 문제는 상태 변수와 제어 변수의 함수인 비용 함수를 포함한다. '''최적 제어'''는 비용 함수를 최소화하는 제어 변수의 경로를 설명하는 일련의 미분 방정식이다.[8]
보다 추상적인 프레임워크에서, 연속 시간 비용 함수를 최소화한다.
여기에는 다음과 같은 제약 조건들이 따른다.
여기서 는 '상태', 는 '제어', 는 독립 변수(일반적으로 시간), 는 초기 시간, 는 최종 시간이다. 항 와 는 각각 '종점 비용'과 '실행 비용'이라고 한다. 변분법에서 와 는 각각 마이어 항과 ''라그랑지안''이라고 한다.[1]
최적 제어 문제는 대상 동적 시스템의 상태 방정식을 제약 조건으로 갖는 범함수의 제약된 최소화 문제로 공식화된다.
시스템의 상태 벡터와 제어 입력 벡터를 로 표기하고, 그들의 시간 에서의 값을 및 으로 나타낸다.
이때, 어떤 시간 구간 에서의 최적 제어 문제의 일반적인 형태는 다음과 같이 기술할 수 있다.
위 식에서 정의되는 범함수 에 있어서, 함수 는 각각 '''종단 비용''' ('''terminal cost''') 및 '''단계 비용''' ('''stage cost''')이라고 불린다.
또한, 위 식은 대상 시스템의 상태 방정식이다.
위 식은 상태 벡터에 관한 '''종단 제약 조건''' ('''terminal constraint''')이며, 위 식 및 식은 각 시간에 있어서의 상태 벡터 및 제어 입력에 부과되는 제약 조건을 의미한다.
위와 같이 기술되는 최적 제어 문제는, 특히 볼자 문제(Bolza problem)라고 불린다.
특별한 경우로서, 첫 번째 항, 즉 가 항등적으로 0인 경우를 라그랑주 문제(Lagrange problem), 두 번째 항, 즉 가 항등적으로 0인 경우를 마이어 문제(Mayer problem)라고 한다.
3. 2. 비용 함수
최적 제어 문제에서 비용 함수는 상태 변수와 제어 변수의 함수이며, 다음과 같은 형태를 가진다.
:
여기서 는 최소화하려는 비용 함수, 는 종단 비용 (terminal cost), 는 단계 비용 (stage cost)이다.
최적 제어 문제는 주어진 제약 조건 하에서 비용 함수 를 최소화하는 제어 입력 와 상태 변수 의 궤적을 찾는 문제이다.
3. 3. 볼자 문제, 라그랑주 문제, 마이어 문제
최적 제어 문제는 대상 동적 시스템의 상태 방정식을 제약 조건으로 갖는 범함수의 제약된 최소화 문제로 공식화된다.
시스템의 상태 벡터와 제어 입력 벡터를 로 표기하고, 그들의 시간 에서의 값을 및 으로 나타낸다.
이때, 어떤 시간 구간 에서의 최적 제어 문제의 일반적인 형태는 다음과 같이 기술할 수 있다.
:J[\boldsymbol{x}, \boldsymbol{u}, t_0, t_f]
= E(\boldsymbol{x}(t_0), t_0; \boldsymbol{x}(t_f), t_f)
+ \int_{t_0}^{t_f} F(\boldsymbol{x}(t), \boldsymbol{u}(t), t) , \mathrm{d}t
:\dot{\boldsymbol{x}}(t) = \boldsymbol{f}(\boldsymbol{x}(t), \boldsymbol{u}(t), t), \quad \forall t \in [t_0, t_f]
:\boldsymbol{e}(\boldsymbol{x}(t_0), t_0; \boldsymbol{x}(t_f), t_f) = \boldsymbol{0}
:\boldsymbol{g}(\boldsymbol{x}(t), \boldsymbol{u}(t), t) \leq \boldsymbol{0}, \quad \forall t \in [t_0, t_f]
:\boldsymbol{h}(\boldsymbol{x}(t), \boldsymbol{u}(t), t) = \boldsymbol{0}, \quad \forall t \in [t_0, t_f]
범함수 에서 함수 는 각각 '''종단 비용''' (terminal cost) 및 '''단계 비용''' (stage cost)이라고 불린다.
또한, 위의 두번째 식은 대상 시스템의 상태 방정식이다.
세번째 식은 상태 벡터에 관한 '''종단 제약 조건''' (terminal constraint)이며, 네번째 식 및 다섯번째 식은 각 시간에 있어서의 상태 벡터 및 제어 입력에 부과되는 제약 조건을 의미한다.
위와 같이 기술되는 최적 제어 문제는, 특히 볼자 문제(Bolza problem)라고 불린다.
특별한 경우로서, 목적 함수의 첫 번째 항, 즉 가 항등적으로 0인 경우를 라그랑주 문제(Lagrange problem), 두 번째 항, 즉 가 항등적으로 0인 경우를 마이어 문제(Mayer problem)라고 한다.
4. 일반적인 해법
최적 제어 문제를 푸는 일반적인 방법에는 크게 폰트랴긴의 '''최대 원리'''[39]와 리처드 E. 벨만의 '''동적 계획법'''[40] 두 가지가 있다.
최대 원리는 변분법을 이용하여 최적해가 만족해야 할 필요조건을 제시한다.[8] 반면, 동적 계획법은 해밀턴-야코비-벨만 방정식이라는 편미분 방정식을 풀어 최적해의 충분조건을 구한다.[40]
최대 원리는 주로 상미분 방정식을 풀기 때문에, 편미분 방정식을 풀어야 하는 동적 계획법에 비해 계산이 쉽다. 그러나 동적 계획법은 확정적인 시스템뿐만 아니라 확률적인 시스템에도 적용할 수 있지만, 최대 원리는 특수한 경우를 제외하고는 확률 시스템에 적용하기 어렵다.
4. 1. 동적 계획법
동적 계획법에 의한 해법에서는, 최적 제어 문제를 해밀턴-야코비-벨만 방정식이라고 불리는 편미분 방정식으로 귀착시킨다.최적 제어 문제에 대해 다음과 같은 함수를 정의한다(는 범함수 를 구간 에서의 의 값에 대해 최소화하는 것을 의미한다):
이 함수는 초기 시각 에서의 상태가 였을 경우의 목적 함수의 최소값을 의미하며, '''가치 함수'''라고 불린다.
목적 함수의 정의에 따라, 는 원래의 최적 제어 문제에서의 목적 함수의 최소값에 대응한다.
또한, 종단 시각 에서의 가치 함수는 다음 식을 만족한다.
또한, 위와 같이 정의된 가치 함수 는 다음 해밀턴-야코비-벨만 방정식을 만족한다.
여기서 함수 는 '''해밀토니안'''이라고 불리며, 다음과 같이 정의된다.
즉, 편미분 방정식과 종단 시각 에서의 경계 조건을 만족하는 가치 함수 를 구할 수 있다면, 각 시각에서의 최적 제어 입력은 다음과 같이 구할 수 있다.
4. 2. 최대 원리
폰트랴긴의 최대 원리(폰트랴긴의 최소 원리 또는 간단히 폰트랴긴의 원리로도 알려진 필요 조건)[8]는 변분법을 적용하여 얻을 수 있는 최적성의 필요 조건이다. 최대 원리의 기본 원리는 다음과 같다.를 최적의 제어 입력으로 하고, 그 때의 상태 벡터를 로 표기한다. 이 때, 이러한 변수들은 시간 구간 에서 다음에 주어지는 관계식을 모두 만족한다.
여기서 함수 는 해밀토니안으로 다음과 같이 정의된다.
:
또한, 변수 은 '''수반 변수'''(adjacent variable) 또는 '''공상태'''(costate)라고 불린다.[39] 수반 변수는 상태 방정식을 최적화 문제의 등식 제약으로 간주했을 때의 라그랑주 승수에 해당한다.
4. 3. 최대 원리와 동적 계획법의 비교
폰트랴긴의 최대 원리는 최적성의 필요 조건이며, 그 해는 시간의 함수, 즉 개루프 제어가 된다.[39] 반면, 동적 계획법은 최적성의 충분 조건을 제공하며, 최적의 제어 입력은 시스템의 상태 함수, 즉 폐루프 제어로 기술된다.[40]동적 계획법에서는 임의의 상태에 대한 제어 입력을 얻기 위해 해밀턴-야코비-벨만 방정식을 풀어야 한다. 이는 편미분 방정식이기 때문에 해석적으로 푸는 것은 일반적으로 불가능하다. 수치적으로 푸는 경우에도 편미분 방정식의 해를 유지하기 위해 필요한 계산량은 상태의 차원에 대해 지수적으로 증가한다. 이러한 문제를 차원의 저주라고 한다.
최대 원리는 풀어야 할 문제가 상미분 방정식으로 주어지기 때문에, 해밀턴-야코비-벨만 방정식과 비교하여 해를 구하기 쉽다.
동적 계획법은 시스템이 확정적이거나 확률적인 경우 모두 적용할 수 있지만, 최대 원리는 특수한 경우를 제외하고 확률 시스템에는 적용할 수 없다.
5. 선형 이차 (LQ) 제어 문제
선형 이차(LQ) 제어 문제는 선형 시스템과 이차 형식의 목적 함수를 갖는 최적 제어 문제의 특수한 경우이다.
LQ 또는 LQR 최적 제어는 다음과 같은 피드백 형태를 가진다.[1]
:
여기서 는 적절한 차원의 행렬이며, 다음과 같이 주어진다.
:
그리고 는 리카티 방정식의 해이다.
유한 시간 구간 문제에서, 미분 리카티 방정식은 다음과 같다.[1]
:
이 방정식은 종단 경계 조건 을 사용하여 시간에 대해 역으로 적분된다.
무한 시간 구간 문제에서는, 미분 리카티 방정식 대신 다음의 대수 리카티 방정식(ARE)이 사용된다.[1]
:
대수 리카티 방정식은 일반적으로 여러 해를 가지며, 이 중 양의 정부호(또는 양의 반정부호) 해가 피드백 게인 계산에 사용된다. 이러한 LQ (LQR) 문제는 루돌프 E. 칼만에 의해 해결되었다.
5. 1. 문제 정의
선형 2차(LQ) 최적 제어 문제는 일반적인 비선형 최적 제어 문제의 특별한 경우이다. LQ 문제는 다음과 같이 정의된다.다음의 2차 연속 시간 비용 함수를 최소화한다.
:
선형 1차 동적 제약 조건은 다음과 같다.
:
및 초기 조건은 다음과 같다.
:
많은 제어 시스템 문제에서 발생하는 LQ 문제의 특정 형태는 모든 행렬(예: , , , )이 ''상수''이고, 초기 시간은 임의로 0으로 설정되며, 종단 시간은 극한 (이 마지막 가정은 ''무한 수평선''이라고 알려져 있음)인 ''선형 2차 조절기(LQR)''이다. LQR 문제는 다음과 같이 정의된다.
무한 수평선 2차 연속 시간 비용 함수를 최소화한다.
:
''선형 시불변'' 1차 동적 제약 조건은 다음과 같다.
:
및 초기 조건은 다음과 같다.
:
유한 수평선의 경우 행렬은 와 이 각각 양의 반정부호 및 양의 정부호로 제한된다. 그러나 무한 수평선의 경우 행렬 와 은 각각 양의 반정부호 및 양의 정부호일 뿐만 아니라 ''상수''이다. 무한 수평선에서 와 에 대한 이러한 추가 제한은 비용 함수가 양수로 유지되도록 하기 위해 적용된다. 또한, 비용 함수가 ''경계''를 유지하도록 하기 위해, 쌍 가 ''제어 가능''하다는 추가적인 제약 조건이 부과된다.
해석적으로 구할 수 있는 최적 제어 문제의 예로, '''선형 이차 제어''' (linear-quadratic control; LQ control)가 널리 알려져 있다. LQ 제어 문제에서는 다음과 같은 선형 시스템을 제어 대상으로 한다.
:
또한, 목적 함수는 상태 벡터와 제어 입력에 관한 이차 형식으로 주어지며, 다음과 같다.
:
단, 및 는 대칭 행렬이며, 일반적으로 (준) 양의 정부호 행렬로 주어진다(는 정칙 행렬일 필요가 있으므로, 일반적으로 양의 정부호 행렬로 가정한다).
무한 시간 구간에서의 최적 조절기 문제에 대해서도 마찬가지로 논의할 수 있다.
- 상태 방정식:
:
- 목적 함수:
:
단, 상수 행렬 과 는 각각 준 양의 정부호, 양의 정부호 행렬이며, 는 제어 가능하다고 가정한다.
5. 2. 선형 이차 조절기 (LQR)
선형 2차 (LQ) 최적 제어 문제는 일반적인 비선형 최적 제어 문제의 특별한 경우이다. 이 문제는 다음과 같은 2차 연속 시간 비용 함수를 최소화하는 것을 목표로 한다.여기서, 다음의 선형 1차 동적 제약 조건과 초기 조건이 주어진다.
많은 제어 시스템 문제에서 발생하는 LQ 문제의 한 형태는 모든 행렬이 상수이고, 초기 시간은 0, 종단 시간은 무한대()인 '''선형 2차 조절기(LQR)'''이다. LQR 문제는 다음과 같이 정의된다.
위 식에서 선형 시불변 1차 동적 제약 조건과 초기 조건은 다음과 같다.
유한 시간 구간 문제에서는 행렬 와 이 각각 양의 반정부호 및 양의 정부호로 제한되지만, 무한 시간 구간에서는 추가적으로 상수라는 조건이 붙는다. 또한, 비용 함수가 경계를 유지하기 위해 쌍이 제어 가능해야 한다.
LQ (또는 LQR) 최적 제어는 피드백 형태를 가지며, 다음과 같이 표현된다.
여기서 는 적절한 차원의 행렬이며, 다음과 같이 주어진다.
는 미분 리카티 방정식의 해이다. 미분 리카티 방정식은 다음과 같다.
유한 시간 구간 LQ 문제의 경우, 리카티 방정식은 종단 경계 조건 을 사용하여 시간에 대해 역으로 적분된다.
무한 시간 구간 LQR 문제의 경우, 미분 리카티 방정식은 '''대수 리카티 방정식(ARE)'''으로 대체된다.
대수 리카티 방정식은 일반적으로 여러 해를 가지며, 피드백 게인 계산에는 양의 정부호 (또는 양의 반정부호) 해가 사용된다.
이러한 LQ 및 LQR 문제는 루돌프 E. 칼만에 의해 해결되었다.
6. 수치적 해법
최적 제어 문제는 일반적으로 비선형이므로, 선형-2차 최적 제어 문제와 같이 해석해(analytic solution)를 갖는 경우는 드물다. 따라서 최적 제어 문제를 해결하기 위해서는 수치적 방법을 사용해야 한다. 최적 제어 문제에 대한 수치적 해법은 크게 간접법과 직접법으로 나뉜다.
6. 1. 간접법 (Indirect method)
간접법은 최적 제어 문제 해결에 사용되는 방법 중 하나로, 1950년대부터 1980년대까지 널리 사용되었다. 간접법은 변분법을 이용하여 1차 최적성 조건을 도출한다. 이 조건들은 두 점(또는 다중 점) 경계값 문제를 형성하며, 이 문제는 해밀턴 함수의 도함수를 포함하는 특수한 구조를 가진다. 결과적으로, 다음과 같은 형태의 해밀턴 시스템이 나타난다.여기서 확장 해밀턴 함수 H는 다음과 같이 정의된다.
간접법에서는 적절한 경계 조건 또는 횡단 조건을 사용하여 이 경계값 문제를 해결한다. 간접법의 장점은 상태와 공액 변수()가 구해지고, 그 결과로 나타나는 해가 극단 궤적임을 쉽게 확인할 수 있다는 것이다. 하지만 경계값 문제를 해결하는 것이 (특히 긴 시간 간격을 갖는 문제나 내부 점 제약 조건이 있는 문제에서) 매우 어려울 수 있다는 단점이 존재한다. 간접법을 구현한 잘 알려진 소프트웨어로는 BNDSCO가 있다.[43]
6. 2. 직접법 (Direct method)
1980년대 이후, 수치 최적 제어에서 주목받는 접근 방식은 '''직접법'''(direct method영어)이다. 직접법은 제어 입력, 상태, 수반 변수 궤적을 유한 차원 벡터 공간의 점으로 근사(다항식 근사, 구분 선형 근사 등)하여, 범함수 최소화 문제를 비선형 계획 문제(nonlinear programming; NLP)로 변환해 최적해를 구한다.직접법의 종류에 따라 풀어야 할 NLP 규모는 달라진다. 직접 슈팅법(direct shooting method영어), 준선형화법(quasilinearization method영어)은 문제 규모가 작고, 의사 스펙트럼 최적 제어[11]는 중간 규모이다. 직접 선점법(direct collocation method)[12]은 대규모 문제가 되며, NLP는 수천, 수만 개의 변수와 제약 조건을 가질 수 있다.
직접법에서 유도되는 대규모 NLP를 푸는 것이 경계값 문제보다 쉽다는 것은 직관에 반하지만, 많은 경우 사실이다. 특히 직접 콜로케이션 방법에서 계산이 상대적으로 용이한 이유는 NLP가 희소성을 가지며, 희소성을 가진 대규모 NLP를 효율적으로 풀 수 있는 SNOPT[13]와 같은 소프트웨어가 존재하기 때문이다. 따라서 직접법(특히 직접 선점법)으로 풀 수 있는 문제 범위는 간접법보다 넓다.
오늘날 직접법은 매우 인기 있으며, DIRCOL[14], SOCS[15], OTIS[16], GESOP/ASTOS[17], DITAN[18], PyGMO/PyKEP[19] 등 정교한 소프트웨어가 많이 개발되었다. MATLAB 프로그래밍 언어 부상과 함께, MATLAB 기반 최적 제어 소프트웨어도 일반화되었다. 학술적으로 개발된 MATLAB 도구로는 RIOTS[20], DIDO[21], DIRECT[22], FALCON.m[23], GPOPS[24] 등이 있고, 산업계 개발 도구로는 PROPT[25] 등이 있다. 이러한 소프트웨어는 학술 연구 및 산업 문제에서 복잡한 최적 제어 문제 탐구 기회를 크게 증대시켰다[26] . TOMLAB 등 범용 MATLAB 최적화 환경은 C 언어, FORTRAN으로 복잡한 최적 제어 문제를 코딩하는 것보다 훨씬 쉽게 만들어 주었다.
7. 이산 시간 최적 제어
지금까지의 예시는 연속 시간 시스템과 제어 해법을 보여주었다. 현대 제어 이론은 최적 제어 해법이 주로 디지털 방식으로 구현되기 때문에 이산 시간 시스템과 해법을 다룬다.[27][28]
7. 1. 일관된 근사 이론
지금까지의 예시는 연속 시간 시스템과 제어 해법을 보여주었다. 사실, 최적 제어 해법이 현재는 종종 디지털 방식으로 구현되기 때문에 현대 제어 이론은 이제 주로 이산 시간 시스템과 해법을 다룬다. 일관된 근사 이론[27][28]은 일련의 점차 정확해지는 이산화된 최적 제어 문제의 해법이 원래의 연속 시간 문제의 해법으로 수렴하는 조건을 제공한다. 모든 이산화 방법이 이러한 속성을 갖는 것은 아니며, 심지어 겉보기에는 분명해 보이는 방법조차도 그렇다.[29] 예를 들어, 가변 스텝 크기 루틴을 사용하여 문제의 동적 방정식을 적분하면 해법에 접근함에 따라 0으로 수렴하지 않거나 (또는 올바른 방향을 가리키지 않는) 기울기가 생성될 수 있다. 직접 방법 ''[http://www.schwartz-home.com/RIOTS RIOTS]''는 일관된 근사 이론을 기반으로 한다.7. 2. 이산 시간 최적 제어의 예
최적 제어 해법은 현재 주로 디지털 방식으로 구현되기 때문에, 현대 제어 이론은 이산 시간 시스템과 해법을 다룬다. 일관된 근사 이론[27][28]은 일련의 점차 정확해지는 이산화된 최적 제어 문제의 해법이 원래의 연속 시간 문제의 해법으로 수렴하는 조건을 제공한다. 모든 이산화 방법이 이러한 속성을 갖는 것은 아니며, 심지어 겉보기에는 분명해 보이는 방법조차도 그렇다.[29] 예를 들어, 가변 스텝 크기 루틴을 사용하여 문제의 동적 방정식을 적분하면 해법에 접근함에 따라 0으로 수렴하지 않거나 올바른 방향을 가리키지 않는 기울기가 생성될 수 있다. 직접 방법 ''[http://www.schwartz-home.com/RIOTS RIOTS]''는 일관된 근사 이론을 기반으로 한다.참조
[1]
서적
A primer on Pontryagin's principle in optimal control
Collegiate Publishers
[2]
서적
Introduction to Dynamic Systems
https://archive.org/[...]
John Wiley & Sons
[3]
서적
Dynamic Optimization: the Calculus of Variations and Optimal Control in Economics and Management
http://worldcat.org/[...]
Dover Publications
2013
[4]
arXiv
An Optimal Control Theory for the Traveling Salesman Problem and Its Variants
2020-05-06
[5]
간행물
A Nonsmooth Calculus for Solving Some Graph-Theoretic Control Problems**This research was sponsored by the U.S. Navy.
2016-01-01
[6]
간행물
Optimal Control
[7]
간행물
Optimal Control—1950 to 1985
[8]
서적
A Primer on Pontryagin's Principle in Optimal Control
Collegiate Publishers
[9]
문서
A new approach to linear filtering and prediction problems
[10]
문서
BNDSCO-A Program for the Numerical Solution of Optimal Control Problems
Institute for Flight Systems Dynamics, DLR, Oberpfaffenhofen
[11]
간행물
A Review of Pseudospectral Optimal Control: From Theory to Flight
[12]
서적
Practical Methods for Optimal Control Using Nonlinear Programming
SIAM Press
[13]
문서
User's Manual for SNOPT Version 7: Software for Large-Scale Nonlinear Programming
University of California, San Diego Report
2007-04-24
[14]
문서
User's Guide for DIRCOL (version 2.1): A Direct Collocation Method for the Numerical Solution of Optimal Control Problems
Fachgebiet Simulation und Systemoptimierung (SIM), Technische Universität Darmstadt
2000
[15]
문서
Sparse Optimal Control Software, SOCS
Boeing Information and Support Services, Seattle, Washington
1997-07
[16]
간행물
Direct Trajectory Optimization Using Nonlinear Programming and Collocation
[17]
문서
Trajectory Optimization Using a Combination of Direct Multiple Shooting and Collocation
2001-08-06
[18]
문서
Design of Interplanetary and Lunar Missions Combining Low-Thrust and Gravity Assists
2002-09
[19]
문서
PyGMO and PyKEP: open source tools for massively parallel optimization in astrodynamics (the case of interplanetary trajectory optimization).
[20]
웹사이트
RIOTS
http://www.schwartz-[...]
2011-07-16
[21]
문서
Enhancements to the DIDO Optimal Control Toolbox, arXiv 2020.
https://arxiv.org/ab[...]
[22]
문서
User's Guide to DIRECT, Version 2.00
Melbourne, Australia
[23]
웹사이트
FALCON.m
http://www.falcon-m.[...]
[24]
웹사이트
GPOPS
http://gpops.sourcef[...]
2011-07-24
[25]
문서
PROPT – MATLAB Optimal Control Software
1260 S.E. Bishop Blvd Ste E, Pullman, WA 99163, USA: Tomlab Optimization, Inc.
[26]
문서
Computational Optimal Control
https://nps.edu/docu[...]
Monterey, CA
2019-10-08
[27]
문서
On the use of consistent approximations in the solution of semi-infinite optimization and optimal control problems
[28]
간행물
A Roadmap for Optimal Control: The Right Way to Commute
http://dx.doi.org/10[...]
2005-12-01
[29]
간행물
Convergence of the Costates Does Not Imply Convergence of the Control
http://dx.doi.org/10[...]
2008-09
[30]
간행물
Discovery of the Maximum Principle
1999
[31]
간행물
The maximal principle of optimal control: A history of ingenious ideas and missed opportunities
http://matwbn.icm.ed[...]
2009
[32]
간행물
The maximum Principle under Minimal Hypotheses
[33]
서적
Optimization and Nonsmooth Analysis
Society for Industrial & Applied Mathematics, U. S.
[34]
서적
Optimal Control
Birkhäuser
[35]
서적
Analysis and Synthesis of Time Delay Systems
John Wiley & Sons
[36]
서적
Optimal Control Theory for Infinite Dimensional Systems
Birkhäuser
[37]
서적
Commande optimale des systèmes discrets
Mir
[38]
서적
Optimization, A, Theory of Cecessary Conditions
Princeton Univ. Press
[39]
서적
The Mathematical Theory of Optimal Processes
[40]
서적
Dynamic Programming
[41]
서적
Deterministic and Stochastic Optimal Control
Springer
[42]
저널
On the Stochastic Maximum Principle
[43]
간행물
BNDSCO - A Program for the Numerical Solution of Optimal Control Problems
DLR
[44]
저널
A Review of Pseudospectral Optimal Control: From Theory to Flight
[45]
서적
Practical Methods for Optimal Control Using Nonlinear Programming
SIAM Press
[46]
저널
User's Manual for SNOPT Version 7: Software for Large-Scale Nonlinear Programming
2007-04-24
[47]
문서
"User's Guide for DIRCOL (version 2.1): A Direct Collocation Method for the Numerical Solution of Optimal Control Problems"
[48]
문서
Sparse Optimal Control Software, SOCS
[49]
저널
Direct Trajectory Optimization Using Nonlinear Programming and Collocation
[50]
간행물
Trajectory Optimization Using a Combination of Direct Multiple Shoooting and Collocation
[51]
문서
Design of Interplanetary and Lunar Missions Combining Low-Thrust and Gravity Assists
[52]
문서
"PyGMO and PyKEP: open source tools for massively parallel optimization in astrodynamics (the case of interplanetary trajectory optimization)."
[53]
웹사이트
RIOTS
http://www.schwartz-[...]
2011-07-16
[54]
저널
User's Manual for DIDO: A MATLAB Package for Dynamic Optimization
[55]
문서
"User's Guide to DIRECT, Version 2.00"
[56]
웹사이트
FALCON.m
https://www.fsd.ed.t[...]
2019-10
[57]
웹사이트
GPOPS
http://gpops.sourcef[...]
2011-07-24
[58]
문서
PROPT – MATLAB Optimal Control Software
[59]
웹사이트
Computational Optimal Control
https://nps.edu/docu[...]
2019-10-08
[60]
서적
A primer on Pontryagin's principle in optimal control
Collegiate Publishers
[61]
서적
Introduction to Dynamic Systems
https://archive.org/[...]
John Wiley & Sons
[62]
서적
Dynamic Optimization: the Calculus of Variations and Optimal Control in Economics and Management
http://worldcat.org/[...]
Dover Publications
2013
[63]
ArXiv
An Optimal Control Theory for the Traveling Salesman Problem and Its Variants
2020-05-06
[64]
저널
A Nonsmooth Calculus for Solving Some Graph-Theoretic Control Problems**This research was sponsored by the U.S. Navy.
2016-01-01
[65]
저널
Optimal Control
[66]
저널
Optimal Control—1950 to 1985
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com